Klima: Modellrechnungen

Klima: Modellrechnungen
Klima: Modellrechnungen
 
Klimatologen versuchen die Frage nach dem Ausmaß anthropogener Klimaänderungen durch eine Kaskade von miteinander verzahnten Problemstellungen und Modellrechnungen zu beantworten. Am Anfang von Modellrechnungen für die Zukunft stehen verschiedene alternative Annahmen, die als Szenarien bezeichnet werden. Dabei liefern Szenarien, die gegenwärtige Trends fortschreiben, die naheliegendsten Ergebnisse. Auf der Grundlage solcher Szenarien werden zunächst Modellrechnungen durchgeführt, um abzuschätzen, welcher Anteil der emittierten Treibhausgase in der Atmosphäre verbleibt und so zu den Konzentrationsanstiegen beiträgt. Derartige Modelle heißen Stofffluss-Modelle, im Fall von Kohlendioxid Kohlenstofffluss-Modelle. Interessiert man sich dagegen nicht für die Zukunft, sondern für die Vergangenheit, sind Szenarien nicht notwendig, da die notwendigen Informationen über die Zusammensetzung der Atmosphäre aus den betreffenden Messungen oder Rekonstruktionen zugänglich sind.
 
An diese Stofffluss-Modelle schließen sich Klimamodelle im engeren Sinn an. Diese liefern Simulationen der durch Konzentrationsanstiege hervorgerufenen Klimaänderungen. So kann beispielsweise aus der Annahme einer künftigen Verdoppelung der reinen oder der äquivalenten Kohlendioxid-Konzentration gegenüber dem Niveau in vorindustrieller Zeit oder auch ausgehend von der vergangenen Entwicklung die zu erwartende Klimaveränderung (»Klimareaktion«) berechnet werden. Dabei muss man zwischen verschiedenen alternativen Berechnungsmethoden unterscheiden.
 
Bei der Gleichgewichtsberechnung wird eine abrupte Änderung, zum Beispiel eine Verdoppelung der Kohlendioxid-Konzentration, angenommen und so lange gerechnet, bis sich an der Klimareaktion zeitlich nichts mehr ändert; dieser Endzustand wird dann als die Gleichgewichtsreaktion des Klimas definiert. Mehr der Wirklichkeit entsprechen transiente Berechnungen. So heißen Berechnungen, die — anders als Gleichgewichtsberechnungen — den zeitlichen Verlauf von Einflüssen und somit von Klimareaktionen simulieren. In diesem Fall kommt zu den quantitativen Unsicherheiten der Klimareaktion, die jedem Modell anhaften, auch noch die Unsicherheit hinzu, dass die Zeitverzögerungen zwischen Ursache und Effekt meist nur ungenügend bekannt sind. Bei den am häufigsten verwendeten physikalischen Klimamodellen wird, ausgehend von einem gemessenen oder angenommenen Anfangszustand, ein System physikalischer oder physikochemischer Gleichungen eingesetzt, das für den jeweiligen Problemkreis relevant ist. In den weitaus seltener verwendeten statistischen Klimamodellen werden unter Umgehung — aber nicht Missachtung — der Physik Beziehungen zwischen ursächlichen Daten, zum Beispiel Kohlendioxid-Konzentrationswerten, und wirksamen Daten, beispielsweise Temperaturen, die aus der Beobachtung stammen, abgeschätzt und ausgewertet.
 
 Simulation der atmosphärischen Zirkulation
 
Das Wunschziel vieler Klimatologen ist die möglichst umfassende physikalische oder physikochemische Behandlung des Problems. Diese beginnt im Allgemeinen mit der Berechnung der Bilanz aus der Einstrahlung der Sonne und der Ausstrahlung der Erde, den Energiebilanzmodellen (EBM). Schon wesentlich komplizierter ist die detaillierte Behandlung der atmosphärischen Wärmeflüsse, insbesondere der Konvektion, durch Strahlungskonvektions-Modelle (RCM, von englisch radiative convective models). Die aufwendigste Art solcher Berechnungen ist die Simulation der atmosphärischen Zirkulation durch allgemeine Zirkulationsmodelle (GCM, von englisch general circulation models) in dreidimensionaler Auflösung. Nur in solchen GCM-Simulationen können alle wichtigen Klimaelemente — neben der Temperatur zum Beispiel auch Bewölkung, Niederschlag und Wind — simuliert werden. Dabei werden auch die regionalen (horizontalen) und vertikalen Strukturen der Klimaänderungen erfasst. Um für eine detaillierte Erörterung von Klimaproblemen wirklich aussagekräftig zu sein, müssen solche atmosphärischen Zirkulationsmodelle (AGCM) mit entsprechenden ozeanischen Zirkulationsmodellen (OGCM) gekoppelt werden, die dann mit AOGCM bezeichnet werden. Außerdem sollten der Boden und die Eisgebiete der Erde zumindest grob berücksichtigt werden.
 
Modelle dieser Art erfordern, insbesondere bei transienten, das heißt den zeitlichen Verlauf berücksichtigenden Simulationen, einen enormen Rechenaufwand. Selbst wenn nur ein einziger Einfluss, beispielsweise der Anstieg der Kohlendioxid-Konzentration in der Atmosphäre in den vergangenen oder kommenden 100 Jahren, als veränderlicher Antriebsfaktor Eingang findet, erfordert dies Rechenzeiten von mehreren Monaten an den größten EDV-Anlagen der Welt. Trotz allem Aufwand sind solche GCM-Simulationen nicht ohne Schwächen, insbesondere was den Zyklus aus Verdunstung, Wolken und Niederschlag, den Wind, die ozeanische Vertikalzirkulation und den Einfluss des Meereseises betrifft. Zudem geht die Biosphäre in solche komplizierten Modelle im Allgemeinen nicht ein. Nur in weitergehenden, Impaktmodellen wird versucht, außer ökologischen auch ökonomische und soziale Folgen möglicher oder schon eingetretener Klimaänderungen zu betrachten.
 
Neben möglichst vollständigen physikalischen oder physikochemischen Klimamodellen sind auch vereinfachte Modelle notwendig, zum Beispiel um dem Zusammenspiel verschiedener Klimaantriebsmechanismen, und zwar anthropogener wie natürlicher, wenigstens teilweise gerecht zu werden. Das gelingt einerseits mithilfe vereinfachter physikalischer Simulationen (vor allem EBM-Simulationen), andererseits durch statistische Ansätze. Hierbei verwendete Verfahren sind unter anderem multiple Regressionen und neuronale Netze, die anstelle von physikalischen Prozessen allein von Beobachtungsdaten ausgehen. Derartige Vereinfachungen haben zwar den Vorteil kürzerer Rechenzeiten und bieten somit beispielsweise die Möglichkeit, relativ rasch mehrere alternative Zukunftsszenarien zu »entwerfen«. Sie haben aber unter anderem den Nachteil, dass sie meist nur hinsichtlich der Temperatur befriedigende Ergebnisse liefern.
 
 Ein typisches Szenario: Die Kohlendioxid-Konzentration verdoppelt sich
 
In einer Reihe von Gleichgewichtssimulationen wird mithilfe unterschiedlicher Klimamodelle (EBM, RCM, GCM) simuliert, wie die Temperatur auf eine Verdoppelung der Kohlendioxid-Konzentration in der Atmosphäre reagiert. Die Ausgangswerte für die Kohlendioxid-Konzentrationen orientieren sich dabei meist am vorindustriellen Niveau (rund 300 ppm). Alternativ werden auch entsprechende äquivalente Kohlendioxid-Konzentrationen eingesetzt. Wenn keine Rückkopplungen — beispielsweise durch Verdunstung oder Wolkenbildung — berücksichtigt werden, resultiert bei allen Modellrechnungen eine Erhöhung der bodennahen Weltmitteltemperatur um 1,2 ºC. Die Berücksichtigung des Rückkopplungseffekts von Wasserdampf, das heißt eine erhöhte Verdunstung durch steigende Temperaturen, führt — je nach angewandtem Modell — zu einer Temperaturerhöhung um 1,6 bis 2,1 ºC.
 
Die angesichts des Temperaturbereichs erkennbare quantitative Unsicherheit der Modellergebnisse wird noch deutlicher, wenn auch die durch die Bewölkung hervorgerufenen komplizierten Rückkopplungen berücksichtigt werden. Selbst die Berechnungen mithilfe der fortschrittlichsten Modelle (AOGCM) ergeben eine Temperaturerhöhung, die Werte von 2,1 bis 4,6 ºC annimmt. Berücksichtigt man die Zeitverzögerungen bis zum Eintritt der Klimaeffekte (transiente Berechnungen), dann ergibt sich aus Simulationen mit AOGCM für den Zeitpunkt einer Verdoppelung der äquivalenten atmosphärischen Kohlendioxid-Konzentration, die bei Trendfortschreibung um das Jahr 2040 vermutet wird, eine Temperaturerhöhung um 1,3 bis 3,8 ºC. Dies ist zunächst weniger als im späteren Gleichgewichtszustand.
 
Um die Verlässlichkeit derartiger Vorhersagen bewerten zu können, ist es erforderlich, zu prüfen, inwieweit die jeweiligen Modelle den bisherigen, tatsächlich beobachteten Temperaturverlauf reproduzieren können. Wird dies bespielsweise für die bodennahe Weltmitteltemperatur durchgeführt, so erhält man mithilfe verschiedener Modellrechnungen seit ungefähr 1850/1860 einen Temperaturanstieg um rund 1 ºC, also deutlich mehr, als tatsächlich beobachtet. Dabei ist aber zu beachten, dass die Beobachtungsdaten keinesfalls nur den anthropogenen Treibhauseffekt widerspiegeln, sondern auch die weiteren anthropogenen und nicht zuletzt auch die natürlichen Einflüsse. Die bisher betrachteten Modellrechnungen simulieren somit nicht das gesamte Klimageschehen, sondern nur den Anteil, der auf bestimmte Einzelursachen zurückgeht. Solche Anteile nennt man Signale, in diesem Fall Treibhaussignale oder genauer Signale des anthropogenen Treibhauseffekts. Dieser sehr wichtige Aspekt ist besonders bei Vorhersagen zu berücksichtigen, da Klimamodelle im Allgemeinen nicht das Klima, sondern nur bestimmte Signale vorhersagen können.
 
 Prognosen der Klimaforscher
 
Die Haupteffekte der Temperaturreaktion werden jeweils im Winter in den hohen geographischen Breiten — das heißt von mittleren Breiten aus polwärts — erwartet. Dies gilt vor allem oder zunächst im Bereich der Kontinente auf der Nordhalbkugel. In praktisch allen Modellergebnissen steht der troposphärischen Erwärmung eine Abkühlung der Stratosphäre gegenüber, da die Treibhausgase die von der Erdoberfläche ausgehende Wärme hauptsächlich in der Troposphäre absorbieren. Daher wird der Wärmefluss in die Stratosphäre verringert. Dies begünstigt im Übrigen den dortigen Ozonabbau.
 
Trotz erheblicher quantitativer Unsicherheiten sagen die Ergebnisse der Modellrechnungen einheitlich im Übergangsbereich zwischen den Subtropen und der gemäßigten Klimazone, zu der auch das Mittelmeergebiet gehört, einen Rückgang der Niederschläge und in den Polarregionen eine Zunahme voraus. Letzteres hat nach gegenwärtiger Auffassung zumindest in der Antarktis eine verstärkte Eisbildung zur Folge. Für den Fall einer Trendfortschreibung der Treibhausgasemissionen wird in den nächsten 100 Jahren im weltweiten Mittel mit einem Anstieg der Meeresspiegelhöhe um etwa 50 Zentimeter bei einer oberen Risikoschwelle von ungefähr einem Meter gerechnet. Die Meeresspiegelhöhe nimmt dabei zu, weil der Ozean mit einer thermischen Ausdehnung der oberen Wasserschichten auf den anthropogenen Treibhauseffekt reagiert. Hinzu kommt noch das Rückschmelzen von Gebirgsgletschern außerhalb der Polargebiete, wie zum Beispiel in den Alpen.
 
Für Mitteleuropa zeichnet sich neben der Vorhersage einer Temperaturerhöhung für alle Jahreszeiten im Winter eine Zunahme und im Sommer eine Abnahme der Niederschläge ab. Dies kann, vor allem was die Zunahme der Winterniederschläge betrifft, auch tatsächlich beobachtet werden. Im Zusammenhang mit der bodennahen Erwärmung und der Abkühlung höherer Luftschichten, das heißt mit einer Änderung der vertikalen Temperaturschichtung, ist es denkbar, dass häufiger Starkniederschläge und vielleicht auch Gewitter und Hagel auftreten. Die Vorhersage solcher Extremereignisse ist jedoch besonders unsicher. Bei der Luftfeuchte wird — abgesehen von den Gebieten, in denen die Niederschlagsneigung zurückgeht — überwiegend eine Zunahme erwartet.
 
Bei den Modellvorhersagen bestehen gerade hinsichtlich der Klimaelemente, deren ökologische und sozioökonomische Auswirkungen besonders wichtig sind, große Unsicherheiten. Das betrifft neben dem Niederschlag und dem Bodenwassergehalt unter anderem auch alle extremen Wetterereignisse einschließlich des Winds.
 
 Vergleichende Klimasignalanalyse
 
Eine der wichtigsten Fragen der modernen Klimaforschung lautet: Wie wirken die verschiedenen Ursachen im Klimageschehen zusammen? Wie bereits erwähnt, heißen die Klimaeffekte, die sich den Einzelursachen zuordnen lassen, Klimasignale. Zur Beantwortung der Frage müssen die Klimasignale für jede Einzelursache und dann deren Überlagerung simuliert werden, wobei sich diese Überlagerung wegen der nichtlinearen Prozesse im Klimasystem nicht einfach aus der Summe der Einzelsignale ergibt. Erst nach diesen Berechnungen kann ein Vergleich mit den Klimabeobachtungsdaten, die das Ergebnis des Zusammenwirkens der Einzeleffekte sind, durchgeführt werden.
 
Das Deutsche Klimarechenzentrum in Hamburg und das Hadley Centre for Climate Prediction and Research in Bracknell (in der Nähe von London) veröffentlichten 1995 erstmals Ergebnisse von Simulationen, bei denen der anthropogene Treibhauseffekt und die durch Sulfataerosole bewirkte Abkühlung der Troposphäre kombiniert berechnet wurden. Berücksichtigt man lediglich den anthropogenen Treibhauseffekt, sollte sich die bodennahe Weltmitteltemperatur seit etwa 1850/60 um rund 1 ºC erhöht haben. Unter Hinzunahme des Sulfataerosol-Effekts reduziert sich diese Temperaturerhöhung dagegen auf ungefähr 0,6 ºC. Dies entspricht in sehr guter Näherung dem tatsächlich beobachteten Trend. Die Differenz von etwa 0,4 ºC kann folglich wahrscheinlich dem Abkühlungseffekt durch die anthropogenen Sulfataerosole zugeschrieben werden. Durch solche kombinierten Simulationen lässt sich die langfristige Entwicklung der bodennahen Weltmitteltemperatur demnach weitaus besser reproduzieren als durch Modellrechnungen, die lediglich den anthropogenen Treibhauseffekt berücksichtigen.
 
Es ist daher nur konsequent, wenn das Intergovernmental Panel on Climate Change (IPCC) solche Berechnungen in seine Klimaszenarien mit einbezieht. Gegenüber 1990 wird bis zum Jahr 2100 bei Trendfortschreibung der anthropogenen Einflüsse ohne Berücksichtigung der Sulfataerosole eine Erhöhung der bodennahen Weltmitteltemperatur um etwa 1,5 bis 3,5 ºC, mit ihrer Berücksichtigung um etwa 1,5 bis 3 ºC für möglich gehalten. Einschließlich der Vergangenheit muss zu diesen Werten noch der im Industriezeitalter bereits eingetretene Temperaturanstieg um etwa 1 ºC — genauer: das betreffende anthropogene Treibhaussignal — addiert werden. In die verwendeten Szenarien geht dabei ein, dass der künftige Schwefeldioxid-Ausstoß vor allem in Südostasien weiter ansteigen könnte, während er in Europa und Nordamerika als Folge von Luftreinhaltungsmaßnahmen bereits erheblich zurückgegangen ist.
 
 Ergebnis mit neuronalen Netzen
 
Betrachtet man das Ergebnis einer statistischen Klimamodellrechnung mithilfe eines neuronalen Netzes (NNM), so stellt man Ähnlichkeiten mit dem Ergebnis der oben erwähnten AOGCM-Simulation fest, obwohl es sich um völlig verschiedene Verfahren handelt. Die NNM-Simulation zeigt, dass sich die bisherige, den Treibhauseffekt überlagernde Abkühlung durch das anthropogene Sulfataerosol-Signal — im Gegensatz zum ständig anwachsenden Treibhaussignal — auf die Zeit der wirtschaftlichen Entwicklung nach dem Zweiten Weltkrieg bis zum Einsetzen von Luftreinhaltungsmaßnahmen in Europa und Nordamerika (etwa um 1970) konzentriert. Mit dem NNM-Modell können auch die kurzfristigen Temperaturvariationen erfasst werden. Danach ist ein Großteil der jährlichen Variationen vermutlich vulkanisch oder durch den ENSO-Mechanismus bedingt und nur ein kleinerer Anteil geht auf die Sonnenaktivität zurück. Wie bei allen Modellrechnungen wird auch hier nicht die gesamte beobachtete Klimavariabilität erfasst und somit erklärt. Diese Restvarianz ist beim Modell des neuronalen Netzes aber recht klein. Spezielle statistische Interpretationtechniken weisen darauf hin, dass dieser Rest zufallsbedingt ist und daher auch unter Hinzunahme weiterer Einflussfaktoren nicht reduziert werden könnte.
 
Es ist wichtig, die in der jeweils betrachteten räumlichen und zeitlichen Größenordnung infrage kommenden Strahlungsantriebe der verschiedenen Klimafaktoren mit den zugehörigen Signalen zu vergleichen, wie sie die verschiedenen Modellrechnungen liefern. Dabei kommt die Dominanz des anthropogenen Kohlendioxid-Einflusses auf das Klima der jüngeren Zeit deutlich zum Ausdruck. Dieser Einfluss erklärt auch zusammen mit dem anthropogenen Sulfataerosol-Signal weitgehend den Langfristtrend, während die natürlichen Faktoren in dieser Zeitspanne praktisch nur Fluktuationen um diesen Trend hervorgerrufen haben. Dadurch gewinnen die entsprechenden Klimamodellvorhersagen an Brisanz.
 
Klimasignale treten weder zeitlich noch räumlich einheitlich in Erscheinung. Daher können einer Erwärmung relativ kurzfristige Abkühlungen überlagert sein oder ein globaler Erwärmungstrend kann regional auch von Abkühlungstrends begleitet werden. Dabei kommt zum Tragen, dass die Klimamodelle in ihrer regionalen Aussagekraft wesentlich stärker eingeschränkt sind, als das bei globalen oder hemisphärischen Mittelwerten der Fall ist. Diese qualitativen und regionalen Unsicherheiten betreffen im Übrigen nicht nur die Modellrechnungen, sondern auch die Rekonstruktionen der Klimageschichte.
 
Prof. Dr. Christian-Dietrich Schönwiese
 
Weiterführende Erläuterungen finden Sie auch unter:
 
Klima: Schutzmaßnahmen
 
Grundlegende Informationen finden Sie unter:
 
Anthropogene Klimaänderungen
 
 
Fabian, Peter: Atmosphäre und Umwelt. Chemische Prozesse, menschliche Eingriffe. Ozon-Schicht, Luftverschmutzung, Smog, saurer Regen. Berlin u. a. 41992.
 Schönwiese, Christian-Dietrich: Klimaänderungen. Daten, Analysen, Prognosen. Berlin u. a. 1995.

Universal-Lexikon. 2012.

Игры ⚽ Нужна курсовая?

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Klima: Schutzmaßnahmen —   Die Vermittlung und Erörterung von Erkenntnissen der Klimaforschung ist eine Sache, daraus die Konsequenzen in Form von Klimaschutzmaßnahmen zu ziehen, eine andere. Lange genug hat es gedauert, bis das Problem der anthropogenen Klimaänderung… …   Universal-Lexikon

  • Klima — Wetterlage; Wetter; Witterung; Ambiance (schweiz.); Stimmung; Atmosphäre; Flair; Ambiente; Atmo (umgangssprachlich) * * * Kli|ma [ kli:ma] …   Universal-Lexikon

  • anthropogene Klimaänderungen —   Schon die bloße Existenz der Menschheit, insbesondere der Weltbevölkerungsanstieg, ist ein klimawirksamer Faktor: Menschen atmen Kohlendioxid (CO2) aus, das als klimawirksames Spurengas den Treibhauseffekt verstärkt. Allerdings kommt es sehr… …   Universal-Lexikon

  • Klimatologie — Klimaforschung * * * Kli|ma|to|lo|gie 〈f. 19; unz.〉 Lehre vom Klima, von den Witterungsvorgängen (in großen Gebieten); Sy Klimakunde [<Klima + grch. logos „Lehre, Kunde“] * * * Kli|ma|to|lo|gie, die; ↑ [ logie]: Wissenschaft u. Lehre vom …   Universal-Lexikon

  • Ozonschicht und Ozonloch: Hintergründe und Trends —   Ozonklimatologie   Das Ozonloch über der Antarktis ist die stärkste Veränderung der chemischen Zusammensetzung der Erdatmosphäre, die diese seit Beginn ihrer regelmäßigen Untersuchungen und möglicherweise auch zuvor je erfahren hat. Es ist ein… …   Universal-Lexikon

  • Atmosphäre — Ambiance (schweiz.); Stimmung; Flair; Ambiente; Klima; Atmo (umgangssprachlich); Lufthülle * * * At|mo|sphä|re [atmo sfɛ:rə], die; : 1. Luft, die die Erde als Hülle umgibt: der Satellit verglüht beim Eintritt in die Atmosphär …   Universal-Lexikon

  • Treibhauseffekt — Treib|haus|ef|fekt 〈m. 1; unz.〉 1. die Eigenschaft eines Glashauses, die Wärmestrahlung der Sonne hereinzulassen, aber wenig Wärme nach außen abzugeben 2. wärmeregulierender Effekt der Erdatmosphäre, der ähnlich der Wirkung eines Glasdaches ist 3 …   Universal-Lexikon

  • Klimaänderung: Ursachen und Prognosen —   Auf der Erde leben sechs Milliarden Menschen, und es werden immer mehr. Alle wollen Kühlschrank, Auto, elektrisches Licht, Heizung, Spülmaschine, Fernseher, Computer. Doch der Komfort hat seinen Preis: Emissionen verändern Umwelt und Natur,… …   Universal-Lexikon

  • Klimaänderung: Folgen und Auswirkungen —   Das Klima bestimmt die menschliche Kultur, mehr als jeder andere Faktor. Es entscheidet darüber, wie viel Ertrag die Felder liefern, wo der Mensch siedelt und wie er sich kleidet. Das Klima forciert den technischen Fortschritt, schürt Seuchen… …   Universal-Lexikon

  • Huronische Eiszeit — Dieser Artikel oder Abschnitt ist nicht hinreichend mit Belegen (Literatur, Webseiten oder Einzelnachweisen) versehen. Die fraglichen Angaben werden daher möglicherweise demnächst gelöscht. Hilf Wikipedia, indem du die Angaben recherchierst und… …   Deutsch Wikipedia

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”